Er is een nieuwe speler in AI-land: Databricks. Het cloudsoftwarebedrijf lanceerde afgelopen woensdag zijn eigen AI-model. En het bedrijf zet gelijk hoog in.

Volgens Databricks is AI-model DBRX niet alleen sneller en goedkoper, maar ook nog eens efficiënter dan concurrenten. Daar zitten grote namen OpenAIMetaGoogle en xAI van Elon Musk bij.

“Het werkt twee keer zo snel en is aanzienlijk goedkoper, maar heeft de intelligentie van de grotere modellen”, zegt medeoprichter en CEO Ali Ghodsi tegen Business Insider.

DBRX zou vooral sneller zijn als het aankomt op het begrijpen van taal, programmeren, wiskunde en logica, omdat het AI-model leunt op een ‘mix van experts’. Dit zijn losse, kleinere AI-modellen die elk hun eigen expertise hebben.

Al deze kleinere modellen komen samen in het grotere AI-model, waardoor er minder rekenkracht nodig is om het werkend te houden.

Met meer van deze deelmodellen kan DBRX stukken tekst oprakelen op basis van minder 'tokens' - de aanpasbare elementen waarmee een AI-model tekst kan interpreteren en kan genereren.

Het is een trucje dat OpenAI met GPT-4 ook heeft geprobeerd. Door bepaalde delen van prompts uit te laten voeren door kleinere gespecialiseerde AI-modellen, moest GPT-4 aanzienlijk sneller, efficiënter, nauwkeuriger worden en minder energie verbruiken.

In de praktijk bleek dat niet direct het geval. Gebruikers klaagden al snel over 'luiheid' van het large language model, dat zelfs soms helemaal geen antwoord gaf op de vragen. Een recente update zou het probleem opgelost moeten hebben.

Startup Databricks bouwt AI-model in 2 maanden

Databricks begon in januari met de bouw van DBRX. Volgens Ghodsi kostte het twee maanden en 10 miljoen dollar om het model op openbare data te trainen. Dat was mogelijk doordat het cloudbedrijf afgelopen jaar de AI-startup MosaicML overnam voor 1,3 miljard dollar.

Het AI-model is getraind met behulp van ongeveer drieduizend Nvidia H100 processoren van meer dan 30.000 euro per stuk. Maar volgens Ghodsi levert het gebruik van het relatief lage aantal chips een veel lagere energiebehoefte op dan concurrenten.

Het is onduidelijk hoeveel processoren OpenAI voor GPT-4 gebruikt, maar geruchten wijzen het tienvoudige van wat DBRX nodig heeft.

Volgens Ghodsi heeft DBRX een database van 132 miljard parameters (individuele stukken trainingsdata). Het model maakt op dit moment gebruik van 36 miljard parameters om prompts te behandelen. Volgens schattingen heeft GPT-4 ongeveer 1.700 miljard parameters.

DBRX is open source, wat betekent dat iedereen de broncode kan inzien en het model kan gebruiken. Dat heeft als voordeel er meer variëteit kan ontstaan, omdat meerdere bedrijven en groepen het model kunnen uitbreiden, zegt mede-oprichter Patrick Wendell van Databricks.

"Er zijn veel groepen die weten hoe ze goede modellen kunnen maken", aldus Wendell. "Wat wij kunnen doen is zorgen dat klanten hun eigen modellen laten maken."

Volgens mede-oprichter Naveen Rao van MosaicML hoeven bedrijven die een open source AI-model gebruiken en trainen op eigen data zich geen zorgen te maken over juridische problemen. zoals de inbreuk op auteursrechten.

Ghodsi zegt dat een team bij Databricks auteursrechtelijke materialen uit de data filtert voordat het model wordt gebruikt om DBRX te trainen.

Vrijwel elke maker van AI-software is verwikkeld in rechtszaken vanwege de inbreuk op auteursrechten. De strijd tussen The New York Times en OpenAI is op dit moment de casus die de meeste aandacht trekt, omdat die volgens experts de ontwikkeling van artificial intelligence flink kan beïnvloeden.

LEES OOK: